霍金:再次发出人类灭绝的警告

2017-06-15

据《每日邮报》报道,著名英国物理学家斯蒂芬·霍金称,人类还能在世界上生存不到1000年。

霍金称,“人类不飞向太空是没有前途的。因此我想唤起去往太空的大众兴趣,而且我会进行训练,以飞向那里”。近日,这位74岁的教授在牛津大学演讲时发出了这样的声明。在他呼吁科学家们要显示出对太空探索和太空旅行的兴趣后,获得了雷鸣般的掌声。

霍金习惯地细数了可能会导致人类灭绝的威胁。据他介绍,由于基因工程病毒或人工智能的发展,人类生命可能在核战中消亡。与此同时,他称,人类能接近理解掌管宇宙的规律是巨大成就。

人工智能

霍金一直以来都对人工智能(AI)相当担忧,甚至认为AI是“人类历史上最严重的错误”。他认为人工智能的潜力无限,完全有可能超越人类的智慧水平,摆脱人类的控制。霍金曾直言不讳地说:“成功制造出一台人工智能机器人将是人类历史上的里程碑。但不幸的是,它也可能会成为我们历史上最后的一个里程碑,除非我们能学会如何去规避这种风险。”霍金的这个观点获得了很多精英人士的支持,其中SpaceX创始人伊隆?马斯克就曾公开表示:“我们应该非常小心人工智能。如果我没有猜错,我们最大的生存威胁就是人工智能,我们正在召唤恶魔。”

人类冲突

霍金认为,就算人工智能没有毁灭人类,人类文明或许会自取灭亡,终结于自身内部的冲突。人类自私、贪婪和无节制的扩张,科技的进步也创造出了可以毁灭人类的武器。“地球上的生命遭遇毁灭性灾难的风险正在不断增加,比如突如其来的全球性核战争、基因工程病毒或者是其它我们还未想象到的危险。”

其中,全球性的核战争在人类文明间形成了一种恐怖而诡异的威慑,最让人担忧。霍金曾对《独立报》称:“我最希望改正的人类缺陷就是侵略性。在穴居人时代,侵略性或许会使人们在食物、领土或者配偶的竞争上更具优势,但是现在它可能导致我们人类灭亡。”

人造病毒

转基因病毒很可能是最恐怖的短期威胁,因为可行性非常大。霍金曾警告称,转基因病毒可能会灭绝整个人类种族。我们目前并不完全清楚基因的运作方式。修改DNA的一部分并非一直会带来预想的结果,而是有可能制造出其它的意外,比如说难以控制病毒的出现。霍金称,超乎我们想象的耐抗生素病毒的出现和发展只是个时间问题。

外星文明

面对这样的威胁,霍金认为太空探索与移民是解决之道。毕竟地球资源有限,将人类的生存空间和资源向外太空延伸确实是延续人类文明的必由之路。然而,短期内这是一个难以实现的目标,霍金对现状不无担忧。

外星文明或许并不像我们想象的那么友好。霍金曾经称“如果外星人造访地球,我认为结果可能会和哥伦布首次造访美洲大陆很相似,这对土著人来说可不是一件好事。”先进的外星文明可能是一个“游牧文明”,征服并殖民他们所能触及的星球,利用星球上的资源建造新的飞船,从而不断持续他们在宇宙中扩张的步伐。

“上帝粒子”

希格斯玻色子被称为“上帝粒子”,它标志着希格斯场的存在,这是一种遍布宇宙的不可见的能量场,能赋予其他粒子质量。希格斯玻色子约为1260亿电子伏,质量约为质子的126倍。这恰好是让宇宙保持在不稳定状态边缘所需的质量,但物理学家说,这种微妙的状态最终会瓦解,宇宙会变得不稳定。物理学家相信,希格斯场可能在缓慢变化,因为它要在场强和维持场强所需的能量之间找到最佳的平衡。让其变成另一个状态需要巨大能量,就像要爬上一座山。假如希格斯场爬上了那座能量山,那么离宇宙的毁灭也就不远了。

霍金在新书中是这样描述希格斯玻色子末日场景的:“希格斯粒子的潜力有着令人担忧的特征,它可能会在能量超过1000亿千兆电子伏的情况下呈亚稳定状态……这就意味着宇宙可能会出现灾难性的真空衰变,一个真正的真空泡沫会以光速扩展。这任何时候都有可能发生,我们是无法预见的。”

相关文章